En las clases anteriores hemos hablado del supuesto de estacionariedad como algo deseable para las series de tiempo con las que trabajamos, esto es debido a que en general los modelos que veremos en clase no funcionan para procesos no-estacionarios.
Por este motivo el primer paso para identificar el modelo que vamos a usar, es asegurarnos que la serie que vamos a usar es estacionaria.
Se han diseñado diferentes pruebas estadísticas para asegurase de la estacionariedad de la serie. A continuación veremos cuatro de las pruebas más usadas:
Dickey y Fuller (1979) consideraron el modelo AR(1),
\[\begin{equation} x_t = \phi x_{t-1} + \varepsilon_t \end{equation}\]
Cuando \(\phi =1\) este proceso tiene raíz unitaria y se vuelve un paseo aleatorio.
Si substraemos \(x_{t-1}\) de ambos lados, obtenemos
\[\begin{equation}\label{df}\tag{*} \Delta x_t = (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
Así, para testear la hipótesis de raíz unitaria, podemos testear que el coeficiente de \(x_{t-1}\) en la ecuación (*) sea igual a cero, contra la alternativa que es menor a cero
Además de la ecuación (*), D-F también desarrollaron el método para casos con constante, i.e.
\[\begin{equation}\label{df2}\tag{+} \Delta x_t = \delta + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
y tendencia
\[\begin{equation}\label{df3}\tag{^} \Delta x_t = \delta + \alpha t + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
MacKinnon (1996) también estimo las probabilidades asociadas a los parámetros de (+) y (^). En economía por lo general testeamos usando (+)
Los resultados anteriores parten de un modelo AR(1), Dickey (1984) extendió estos resultados para proceso AR(p), de forma tal que lo podemos escribir como,
\[\begin{align} \Delta x_t & = \beta x_{t-1} + \phi_1'\Delta x_{t-1} + \phi_2' \Delta x_{t-2} + \dots \\ & + \phi_{p-1}' \Delta x_{t-(p-1)} + \varepsilon_t \end{align}\]
donde \(\beta\) sigue la misma distribución que el parámetro de (*). También se puede extender para las ecuaciones (+) y (^)
Este test es basado en que si la serie es estacionaria y la diferenciamos una vez se vuelve de orden I(-1).
El estadístico considerado es entonces: \[\begin{equation} \hat{\eta}_{\mu} = \frac{1}{n^2 s_{nl}^2} \sum_{t=1}^n S_{t}^2 \end{equation}\]
donde, \(s_{nl}^2\) es un estimador consistente de \(\sigma^2\) y \(S_t = \sum_{s=1}^t (x_s - \bar{x})\)
Box-Cox (1964) estudiaron el caso de series en las cuales la varianza cambia a través del tiempo y diferenciar la serie no desaparece este comportamiento. Ellos definieron una transformación instantánea, i.e. no están involucrados varios periodos de tiempo, que se define como,
\[\begin{equation} x_t^\lambda = \left\{ \begin{matrix} \frac{x_t^\lambda - 1 }{\lambda} & \lambda \neq 0 \\ \ln x_t & \lambda = 0 \end{matrix} \right. \end{equation}\]
Una vez nos aseguramos que la serie es estacionaria (débil) podemos proceder a escoger el modelo que deseamos estimar. Para esto haremos uso de algunas funciones y gráficas que pueden dar indicios del comportamiento de la serie.
Si tenemos una muestra del proceso \(x_t\), \(t=1,2,3,\dots,n\) de un procesos ARMA de orden (posiblemente) desconocido, podemos calcular la función de auto-correlación de orden \(j\) como
\[\begin{equation}\ \hat{\rho_j} = \frac{\hat{\gamma_j}}{\hat{\gamma_0}} \end{equation}\]
Como vimos anteriormente, en un proceso AR esta desciende lentamente y en un proceso MA deberíamos ver que la FACE sea cercana a cero después del orden de auto-correlación del p.g.d.
También es importante ver la distribución de este estimador \(\hat{\rho_j}\). Bajo el supuesto de \(\rho_j=0\), Anderson (1942) demostró que \(\hat{\rho_j}\) se distribuye normal con,
\[\begin{align} E(\hat{\rho_j}) & \simeq 0 \\ Var(\hat{\rho_j}) & \simeq \frac{1}{N} \sum_{i = -\infty}^{\infty} (\rho_i^2 + \rho_{i+j}\rho_{i-j} + 2 \rho_i^2 \rho_j^2) \end{align}\]
Si tenemos una muestra del proceso \(x_t\), \(t=1,2,3,\dots,n\) de un procesos ARMA de orden (posiblemente) desconocido, podemos calcular la función de auto-correlación parcial de orden \(j\), \(\rho_j^j\) como
\[\begin{equation}\label{eq:facep} x_t = \delta^j + \rho_1^j x_{t-1} + \dots + \rho_j^j x_{t-j} + \varepsilon_t \end{equation}\]
El superíndice \(j\) aparece en todos los coeficientes para mostrar que todos los coeficientes, no solo el ultimo, depende de \(j\)
Otro método para estimar la FACPE es haciendo uso de las ecuaciones de Yule-Walker, así
\[\begin{align*} \begin{bmatrix} \hat{\phi_1^j} \\ \hat{\phi_2^j} \\ \vdots \\ \hat{\phi_j^j} \end{bmatrix} & = \begin{bmatrix} 1 & \hat{\rho_1} & \dots & \hat{\rho_{j-1}} \\ \hat{\rho_1} & 1 & \dots & \hat{\rho_{j-2}} \\ \vdots & \vdots & \ddots & \vdots \\ \hat{\rho_{j-1}} & \hat{\rho_{j-2}} & \dots & 1 \end{bmatrix}^{-1} \begin{bmatrix} \hat{\rho_1} \\ \hat{\rho_2} \\ \vdots \\ \hat{\rho_j} \end{bmatrix} \end{align*}\]
y retenemos \(\hat{\phi_j^j}\) como la FACPE de orden j
En un proceso AR(p), Quenouille (1946) demostró que \(\hat{\rho}_j^j\) se distribuye normal con,
\[\begin{align*} E(\hat{\rho}_j^j) & \simeq 0 \\ Var(\hat{\rho}_j^j) & \simeq \frac{1}{N} \end{align*}\]
\(x_t = 0.6x_{t-1} + 0.2 x_{t-2} + \varepsilon_t\) Decaimiento exponencial en la face y 2 picos en la facpe
\(x_t = \varepsilon_t - 0.6 \varepsilon_{t-1} - 0.2 \varepsilon_{t-2}\) Decaimiento exponencial en la facpe y 2 picos en la face